The broad usage of mobile devices nowadays, the sensitiveness of the information contained in them, and the shortcomings of current mobile user authentication methods are calling for novel, secure, and unobtrusive solutions to verify the users' identity. In this article, we propose TypeFormer, a novel Transformer architecture to model free-text keystroke dynamics performed on mobile devices for the purpose of user authentication. The proposed model consists in Temporal and Channel Modules enclosing two Long Short-Term Memory (LSTM) recurrent layers, Gaussian Range Encoding (GRE), a multi-head Self-Attention mechanism, and a Block-Recurrent structure. Experimenting on one of the largest public databases to date, the Aalto mobile keystroke database, TypeFormer outperforms current state-of-the-art systems achieving Equal Error Rate (EER) values of 3.25% using only 5 enrolment sessions of 50 keystrokes each. In such way, we contribute to reducing the traditional performance gap of the challenging mobile free-text scenario with respect to its desktop and fixed-text counterparts. Additionally, we analyse the behaviour of the model with different experimental configurations such as the length of the keystroke sequences and the amount of enrolment sessions, showing margin for improvement with more enrolment data. Finally, a cross-database evaluation is carried out, demonstrating the robustness of the features extracted by TypeFormer in comparison with existing approaches.
translated by 谷歌翻译
We present edBB-Demo, a demonstrator of an AI-powered research platform for student monitoring in remote education. The edBB platform aims to study the challenges associated to user recognition and behavior understanding in digital platforms. This platform has been developed for data collection, acquiring signals from a variety of sensors including keyboard, mouse, webcam, microphone, smartwatch, and an Electroencephalography band. The information captured from the sensors during the student sessions is modelled in a multimodal learning framework. The demonstrator includes: i) Biometric user authentication in an unsupervised environment; ii) Human action recognition based on remote video analysis; iii) Heart rate estimation from webcam video; and iv) Attention level estimation from facial expression analysis.
translated by 谷歌翻译
这项工作提出了两种统计方法,用于基于通用和用户依赖模型的击键生物识别数据的合成。两种方法在机器人检测任务上均经过验证,使用击键合成数据来更好地训练系统。我们的实验包括一个来自168,000名受试者的1.36亿击球事件的数据集。我们通过定性和定量实验分析了两种合成方法的性能。根据两个监督分类器(支持向量机和长期的短期内存网络)和一个包括人类和生成的样本在内的学习框架,考虑了不同的机器人探测器。我们的结果证明,所提出的统计方法能够生成现实的人类合成击键样品。此外,分类结果表明,在具有大型标记数据的情况下,可以高精度检测这些合成样品。但是,在几次学习方案中,它代表了一个重要的挑战。
translated by 谷歌翻译
事实证明,行为生物识别技术是有效的,可以防止身份盗用,并被视为用户友好的身份验证方法。文献中最受欢迎的特征之一是由于我们社会中计算机和移动设备的大量部署,击键动态。本文着重于改善自由文本方案的击键生物识别系统。由于不受控制的文本条件,用户的情绪和身体状态以及使用中的应用程序,这种情况的特征是非常具有挑战性的。为了克服这些缺点,在文献中提出了基于深度学习的方法,例如卷积神经网络(CNN)和经常性神经网络(RNN),表现优于传统的机器学习方法。但是,这些体系结构仍然需要进行审查和改进。据我们所知,这是第一个提出基于变压器的击键生物识别系统的研究。所提出的变压器体系结构在流行的AALTO移动击键数据库中仅使用5个注册会话实现了相等的错误率(EER)值,为3.84%,在文献中的大幅度优于其他最先进的方法。
translated by 谷歌翻译
在本文中,我们开发Faceqgen,基于生成的对抗网络的面部图像的No参考质量评估方法,其产生与面部识别精度相关的标量质量测量。 Faceqgen不需要标记为培训的质量措施。它从使用SCFace数据库从头开始培训。 Faceqgen将图像恢复应用于未知质量的面部图像,将其转换为规范的高质量图像,即正面姿势,均匀的背景等。质量估计是原始图像和恢复图像之间的相似性,因为低质量图像由于恢复而体验更大的变化。我们比较三种不同的数值质量措施:a)原始和恢复的图像之间的MSE,b)他们的SSIM和c)甘杆菌鉴别器的输出得分。结果表明,面部QGEN的质量措施是面部识别准确性的良好估计。我们的实验包括与针对面部和一般图像设计的其他质量评估方法的比较,以便在现有技术中定位面部。这种比较表明,即使面对面识别准确性预测方面不超过最佳现有的面部质量评估方法,它也实现了足够的结果,以证明质量估计的半监督学习方法的潜力(特别是数据 - 基于每个受试者的单一高质量图像的驱动学习),具有提高未来性能的能力,通过对模型的充分改进以及竞争方法的显着优势,不需要质量标签的发展。这使得Faceqgen灵活且可扩展,而无需昂贵的数据策激。
translated by 谷歌翻译
这项工作提出了基于眼闪烁频率的远程关注水平估计的可行性研究。我们首先提出了一种基于卷积神经网络(CNNS)的眼睛闪烁检测系统,对相关工程非常竞争。使用此探测器,我们通过在线会话期间通过实验评估眼睛眨眼率与学生的注意力水平之间的关系。实验框架是使用公共多模式数据库进行的用于眼睛眨眼检测和称为Mebal的注意力水平估计,包括来自38名学生的数据和倍数采集传感器,特别是i)提供时间信号的脑电图(EEG)频带从学生的认知信息和ii)RGB和NIR相机捕捉学生面部姿势。实现的结果表明眼睛闪烁频率与关注水平之间的反比相关性。在我们所提出的方法中使用该关系,称为ALEBK,用于估计注意力水平作为眼睛闪烁频率的倒数。我们的成果开设了新的研究线,以介绍这种技术的关注水平估计,以及这种行为生物识别基于面部分析的其他应用。
translated by 谷歌翻译
可取消的生物识别性是指一组技术,其中生物识别输入在处理或存储前用键有意地转换。该转换是可重复的,可以实现后续生物特征比较。本文介绍了一种可消除生物识别性的新方案,旨在保护模板免受潜在攻击,适用于任何基于生物识别的识别系统。我们所提出的方案基于从变形随机生物识别信息获得的时变键。给出了面部生物识别技术的实验实施。结果证实,该方法能够在提高识别性能的同时抵抗泄漏攻击。
translated by 谷歌翻译
虹膜识别技术在过去几十年中吸引了日益增长的兴趣,我们目睹了从研究实验室迁移到现实世界应用的迁移。该技术的部署提出了关于与这些系统相关的主要漏洞和安全威胁的问题。在这些威胁中,介绍攻击突出了一些最相关和研究的。呈现攻击可以被定义为人类特征或工件的呈现直接到试图干扰其正常操作的生物识别系统的捕获设备。在虹膜的情况下,这些攻击包括使用真正的虹膜以及具有不同级别的复杂程度的工件,例如照片或视频。本章介绍了已开发的虹膜演示攻击检测(PAD)方法,以降低呈现攻击所带来的风险。首先,我们总结了最受欢迎的攻击类型,包括地址的主要挑战。其次,我们提出了一个介绍攻击检测方法的分类,作为这一非常活跃的研究区域的简要介绍。最后,我们讨论了这些方法根据实际应用中最重要的情况识别虹膜识别系统。
translated by 谷歌翻译
本章的主要范围是作为面部介绍攻击检测的介绍,包括过去几年的关键资源和领域的进步。下一页呈现了面部识别系统可以面对的不同演示攻击,其中攻击者向传感器提供给传感器,主要是相机,呈现攻击仪器(PAI),这通常是照片,视频或掩码,试图冒充真正的用户。首先,我们介绍了面部识别的现状,部署水平及其挑战。此外,我们介绍了面部识别系统可能暴露的漏洞和可能的攻击,表明呈现攻击检测方法的高度重要性。我们审核不同类型的演示攻击方法,从更简单到更复杂,在哪个情况下它们可能是有效的。然后,我们总结了最受欢迎的演示文稿攻击检测方法来处理这些攻击。最后,我们介绍了研究界使用的公共数据集,以探索面部生物识别性的脆弱性,以呈现攻击,并对已知的PAI制定有效的对策。
translated by 谷歌翻译
在本文中,我们开发FaceQVEC,一种软件组件,用于估计ISO / IEC 19794-5中所考虑的每个要点的面部图像的符合性,这是一个质量标准,该标准定义了将它们可接受或不可接受的面部图像的一般质量指南用于官方文件,如护照或身份证。这种质量评估的工具可以有助于提高面部识别的准确性,并确定哪些因素影响给定的面部图像的质量,并采取行动消除或减少这些因素,例如,具有后处理技术或重新获取图像。 FaceQVEC由与上述标准中预期的不同点相关的25个单独测试的自动化,以及被认为与面部质量有关的图像的其他特征。我们首先包括在现实条件下捕获的开发数据集上评估的质量测试的结果。我们使用这些结果来调整每个测试的判定阈值。然后,我们再次在评估数据库中再次检查,该评估数据库包含在开发期间未见的新脸部图像。评估结果展示了个人测试的准确性,用于检查遵守ISO / IEC 19794-5。 Faceqvec可在线获取(https://github.com/uam-biometrics/faceqvec)。
translated by 谷歌翻译